本文提出了一种新颖,快速和隐私的保护,以实施深层自动编码器。Daef(用于联合学习的深度自动编码器)与传统的神经网络不同,以非著作的方式训练深层自动编码器网络,从而大大减少了其训练时间。它的培训可以以分布式的方式(并联数据集的多个分区)和逐步(部分模型的聚合)进行,并且由于其数学表达式,交换的数据不会危及用户的隐私。这使DAEF成为边缘计算和联合学习方案的有效方法。该方法已被评估并与传统的(迭代)深层自动编码器进行了比较,但使用七个真正的异常检测数据集进行了评估,尽管Daef的训练更快,但它们的性能被证明是相似的。
translated by 谷歌翻译
存在许多背景,存在二元数据。社交网络是一个众所周知的例子。在这些情况下,成对的元素是链接的,建立一个反映交互的网络。解释为什么建立这些关系对于获得透明度至关重要,这是一个日益重要的概念。由于自然语言理解任务的传播,这些解释通常是使用文本提出的。我们的目的是代表和解释任何代理人建立的对(例如,推荐系统或付费促销机制),以便考虑到基于文本的个性化。我们已经专注于TripAdvisor平台,考虑到其他二元数据上下文的适用性。这些项目是用户和餐馆的子集以及这些用户发布的评论的互动。我们提出了PTER(个性化基于文本的评论)模型。我们可以从适合特定用户交互的特定餐厅的可用评论中预测。 PTER利用BERT(Transformers来自Transformers transformer-ododer模型的双向编码器表示)。我们按照基于功能的方法定制了一个深神网络,并介绍了LTR(学习排名)下游任务。根据额外的(解释排名)基准,我们与随机基线和其他最新模型进行了几次比较。我们的方法的表现优于其他协作过滤建议。
translated by 谷歌翻译